亚洲伊人久久精品影院,91精品尤物福利国产,欧美特黄一区二区,96久久精品人人妻人人槡

聯(lián)
咨詢熱線:

185-9527-1032

聯(lián)系QQ:

2863379292

官方微信:

WordPress SEO 之 Robots.txt優(yōu)化篇

全網(wǎng)營銷

導(dǎo)讀:由于鏈接的的指向,而導(dǎo)致網(wǎng)站內(nèi)容重復(fù),一直是網(wǎng)站SEO的大忌。不同的鏈接指向同一個網(wǎng)頁,就會被搜索引擎判定為作弊。昨天提到的Wordpress重定向插件,在一定意義上也是為了阻止重

發(fā)表日期:2019-12-09

文章編輯:興田科技

瀏覽次數(shù):8946

標(biāo)簽:

由于鏈接的的指向,而導(dǎo)致網(wǎng)站內(nèi)容重復(fù),一直是網(wǎng)站SEO的大忌。不同的鏈接指向同一個網(wǎng)頁,就會被搜索引擎判定為作弊。昨天提到的Wordpress重定向插件,在一定意義上也是為了阻止重復(fù)內(nèi)容。然而,由于Wordpress的結(jié)構(gòu)原因,往往就會發(fā)生網(wǎng)頁內(nèi)容重復(fù)的狀況。例如:http://www.domain.com/archive/1 和 http://www.domain.com/archive/1/feed兩個網(wǎng)址下的內(nèi)容就是一樣的,所以,我們就必須想辦法阻止這樣的情況發(fā)生。

通常,解決重復(fù)內(nèi)容的方法有:使用noindex標(biāo)簽,利用excerpt實現(xiàn)內(nèi)容摘要,以及配置robots.txt。今天就主要說說在Wordpress下使用robots.txt文件。

robots.txt文件就像一個網(wǎng)站的大門,它會告訴搜索引擎的蜘蛛,可以抓取哪里的網(wǎng)頁內(nèi)容,哪里的不能抓取。因此,配置好robots.txt文件,完全可以理想的組織blog內(nèi)容重復(fù)的問題。robots.txt的具體文法和使用方法,可以參考robotstxt.org。在國內(nèi),此類的Wordpress robots.txt比較流行:

User-agent: *

Disallow: /wp-

Disallow: /feed/

Disallow: /comments/feed

Disallow: /trackback/

Disallow: /?s=

剛才看到 filination.com上面提到的一個robots文件,并且提供了簡短的解釋。剛剛接觸robots.txt文件的朋友,可以參考一下:

User-agent: Googlebot

# Disallow all directories and files within

Disallow: /cgi-bin/

Disallow: /wp-admin/

Disallow: /wp-includes/

# Disallow all files ending with these extensions

Disallow: /*.php$

Disallow: /*.js$

Disallow: /*.inc$

Disallow: /*.css$

# Disallow parsing inpidual post feeds, categories and trackbacks..

Disallow: */trackback/

Disallow: */feed/

Disallow: /category/*

Robots.txt因人而異,不同的人對robots有不同的理解,在加上SEO一直是一個熱門話題,所以Wordpress的robots文件不會是唯一的,也不會有一個最好的。大家要是有覺得更好的,不妨分享一下。

相關(guān)推薦

更多新聞